17 - Einführung in die Numerische Mathematik [ID:2587]
50 von 662 angezeigt

Dieser Audiobeitrag wird von der Universität Erlangen-Nürnberg präsentiert.

Grüß Gott zusammen. Wir hatten letztes Mal gesehen, dass man mit dem C.G. Verfahren eigentlich ein

recht gutes Verfahren hat. Insofern, als es sich so verhält, also immer gemessen an diesem einen

Beispiel, wie weit das jetzt typisch ist, ist erstmal a priori schwer zu sagen, aber es ist

typisch ein Verfahren hat, das sich so verhält wie das SOR-Verfahren mit optimalen Relaxationsparameter.

Die Crux ist die, dass es eben von der Konditionszahl der Matrix abhängt und die ist für solche

Matrizen, wie sie aus der Diskretisierung von Differentialgleichungen entstehen, eben hoch.

Das heißt also, die allgemeine Frage ist, kann man denn nicht das Gleichungssystem so transformieren,

dass die Konditionszahl der Systemmatrix geringer wird, sodass damit das Verfahren effizienter wird.

Wir haben verschiedene Vorkonditionierungsansätze kennengelernt und da wir es ja mit symmetrischt

positiv definierten Problemen zu tun haben, was wir nicht durch die Vorkonditionierung kaputt

machen können, sind wir auf den sogenannten gesplitteten Ansatz gekommen. Das heißt,

wir brauchen wiederum eine symmetrische Vorkonditionierungsmatrix, die sich dann so

schreiben lässt, als W mal W transponiert. Das kann man sich als die Scholesky-Zerlegung

dieser Matrix vorstellen, die es ja immer gibt, wenn das C zum Beispiel auch positiv definiert ist.

Und wir haben gesehen, wenn wir jetzt mit dieser Matrix hier sozusagen von links und rechts

vorkonditionieren, dass wir einerseits mit dem W die Gleichung transformieren und analog auch

die Variable transformieren, dann bekommen wir ein transformiertes Problem, was Symmetrie und

Positivdefinite erhält und was aber genauso von der Kondition so dasteht, als wenn wir von links

oder von rechts mit einer Vorkonditionierungsmatrix multipliziert hätten. Jetzt natürlich jetzt die

Frage, wie findet man solche Vorkonditionierungsmatrizen und wir sind jetzt gekommen auf den Ansatz,

also erstmal, wie sieht das Verfahren aus und wir hatten dann festgestellt, das Verfahren,

was man bekommt, vielleicht gehe ich einfach nochmal auf das Verfahren, das heißt also man wende

das CG-Verfahren auf die transformierte Situation an, transformiere alles wieder zurück und schaue,

was dann passiert und dann entsteht ein Verfahren, was genauso aussieht wie das Original-CG-Verfahren,

mit dem kleinen Unterschied, dass hier an einer Stelle mal zusätzlich noch anstelle das hier

direkte Vektor GK plus eins, der K plus eine Gradient eingeht, ein Hilfsvektor eingeht,

der wir durch Lösen eines Gleichungssystems erhalten mit der Systemmatrix C. Das zeigt wiederum,

das C muss so gestaltet sein, dass das Auflösen eines linearen Gleichungssystems untergeordnet ist,

wenn das CE schon in Zerlegung da vorliegt, wie wir ja im Prinzip vorausgesetzt haben,

geht es bloß noch um Vorwärts-Rückwärts-Substitution und eigentlich sollte auch diese Vorwärts- und

Rückwärts-Substitution dann nur eine Komplexität groß O von N haben, wenn man es auf die dünn

besetzte Situation anwendet. Um jetzt das alles zu erfüllen für die Vorkonditionierung, also das

Problem ist nicht so sehr, das Verfahren dann zu implementieren, wenn man es einmal hat, das ist

eine minimale Änderung an der CG-Implementierung, das Problem ist eigentlich mehr die Vorkonditionierungsmatrix

zu finden. Wir sehen nochmal, was wir insgesamt dann haben, wir kennen diese Konvergenz-Ordnungsrate

mit dem Wurzel aus der Konditionszahl und jetzt ist eben die Konditionszahl nicht mehr die

Konditionszahl von A, sondern die hoffentlich kleinere und sozusagen systematisch kleinere

Konditionszahl von C hoch minus 1 mal A. Wie gesagt, ob wir hier C hoch minus 1 mal A oder A mal C oder

das gesplittete Situation anschauen, ist von der Konditionszahl das gleiche. So, diese Abschätzung

sagt jetzt, naja vielleicht wäre es ganz gut mal bei den stationären Iterationsverfahren zu schauen,

denn diese Abschätzung sagt, wenn ich als Konditionszahl sozusagen die Matrix hernehme,

die wir da in dem Kontext W genannt haben, bzw. der inverse N genannt worden ist, also die Matrix,

die dort das Hilfsgleichungssystem aufstellt, definiert, dass man lösen muss, um das Increment in

jedem Schritt aus dem negativen Residuum zu berechnen, dann sehen wir, wenn wir da ein

konvagentes Verfahren haben, dann bekommen wir eine sehr ordentliche Abschätzung für die Konditionszahl.

Also nehmen wir mal unsere alten Verfahren her, die sich als Verfahren an sich, sich für diesen

Typ von Problemen als nicht so gut erwiesen haben und jetzt ist halt die Problematik, jetzt brauchen

wir für dieses N eben eine symmetrischt positiv definierte Matrix unter der Voraussetzung,

dass die Ausgangsmatrix A symmetrisch positiv definiert ist.

Zugänglich über

Offener Zugang

Dauer

01:28:02 Min

Aufnahmedatum

2012-12-10

Hochgeladen am

2013-08-08 00:59:33

Sprache

de-DE

  • Fehleranalyse (Gleitpunktdarstellung, Rundung, Fehlerfortpflanzung, Kondition, Gutartigkeit)
  • Polynominterpolation (Dividierte Differenzen, Interpolationsfehler)
  • Asymptotische Entwicklungen und Extrapolation (Richardson-Extrapolation)
  • Numerische Integration (Newton-Cotes-Formel, Romberg-Integration, Gaußsche Integration)
  • Lineare Gleichungssysteme (Gaußscher Algorithmus, LR-Zerlegung, Cholesky-Zerlegung, Matrixnormen, Fehlerabschätzungen)
  • Nichtlineare Gleichungssysteme (Fixpunktsätze, Konvergenzordnungsbegriffe, Newton-Verfahren, iterative Verfahren für LGS)
  • Lineare Ausgleichsrechnung
  • etc.
Einbetten
Wordpress FAU Plugin
iFrame
Teilen